查看原文
其他

人工智能治理论(一):人工智能的广泛应用引发的问题

律小旭 人工智能法律研究 2023-01-13

本平台聚焦互联网和人工智能新时代、新生态法律的研究与服务,整合资源,跨界合作。系由曹旭律师团队运营,业务范围以一般民商事争议解决为基础,创新型中小企业法律服务、创业园区法律支持服务、互联网领域法律服务为核心。诚实守信,勤勉尽责,以最大的努力维护委托人的合法权益。

合作联系微信:soupain 

邮箱:105491396@qq.com

备注:本号原创作品

作者:曹旭律师

首发:人工智能法律研究

阅读说明:节选自论文的一部分。

人工智能已经不知不觉渗透到我们的衣食住行之中,对社会结构、生活秩序乃至国际格局造成了巨大的影响,即便目前仅仅是其最初级的阶段。


如果说,以往人们对人工智能的印象还是仅存在于文学作品里的话,今天,人工智能带来的挑战,则必须由哲学家、科学家、法学家、社会学家、商界领袖和政界领袖等各个群体从每个角度做出严肃的思考和探讨。


2017年7月8日,国务院印发的关于《新一代人工智能发展规划》的通知,将发展人工智能确定为国家战略的同时,提出“制定促进人工智能发展的法律法规和伦理规范”,“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。


本文从法律、伦理、安全、社会治理的角度出发,总结人工智能发展引发的社会问题和目前国际社会尝试解决问题的探索,分析人工智能时代问题的新现象、新特征,提出人工智能治理的新思路和新建议。


人工智能的广泛应用引发的问题


2017年7月15日,马斯克在一次美国全国州长会议上发表了演讲,再一次强调人工智能可能给人类带来的巨大威胁。马斯克把车祸、飞机失事、毒品泛滥和食品问题和人工智能进行了对比,认为前四项东西至少没有对人类文明造成根本威胁,但是人工智能却从根本上威胁到了人类文明。其他包括斯蒂芬·霍金、比尔·盖茨等都对人工智能持悲观态度,


当然,人工智能领域也不缺少乐观派,谷歌母公司Alphabet执行董事长埃里克·施密特、百度创始人李彦宏、亚马逊创始人杰夫·贝索斯、Facebook创始人马克·扎克伯格等等都属于这个阵营。


不管对未来是悲观还是乐观,人工智能的广泛应用确实给现在带来了方方面面的问题。对于公众来说,尤其是强人工智能的想象让人们感到未来的不可测,引发了人们的忧虑情绪。


人工智能引发的问题可以归纳为以下几个方面。



(一)社会就业问题


随着人工智能技术的进一步发展,会不可避免地对就业造成冲击。很多岗位和职业会逐步消失,例如银行出纳员、客户服务代表、电话销售员、股票和债券交易员等;甚至律师助理和放射科医生这样的工作也会被这类软件所取代。假以时日,人工智能技术还会学会控制如无人驾驶汽车和机器人这类半自主或全自主硬件设施,逐步取代工厂工人、建筑工人、司机、快递及许多其他职业。


麦肯锡2017年1月的报告《A future that works: automation, employment, andproductivity》中声称“60%的岗位与30%以上的工作内容能被自动化替代”,这其中包括一些长久以来被认为是无法被机器所替代的人类岗位。


2018年1月22日“世界经济论坛”发布的一份名为《Towards a Reskilling Revolution:A Future of Jobs for All》(下一次技能革命:未来的工作)的研究报告中指出,在美国由于技术发展和其他因素影响,在2026年会有140万个就业机会受到影响,其中有57%的女性,会因为行政助理、秘书等职位被替代后失去工作机会。出租车司机、维修工人这一类属于轻体力劳动,对从事者有着技能方面的要求。这类工作机会被替代的可能性反而是比较低的。秘书、行政助理等等工作属于轻脑力劳动。这一类工作通常是在数字化世界处理一些流程化问题:整理、记录、接人待物、上传下达等等,所以是最容易被人工智能所替代的。


(二)个人数据与隐私保护问题


个人数据与隐私保护问题是信息时代的产物,而到了大数据时代,新技术的应用使得收集用户数据以提供个性化的推荐服务成为商业软件的普遍手段之一,这个问题被显著放大的同时呈现出许多新的特征。


1,大数据时代的“选择难题”:个人数据与隐私保护问题与量身定制服务的难于两全其美。


如果要限制商业软件对个人数据的采集,那么会降低对个人的服务质量,尤其是无法提供量身定制的服务方案;如果不加以限制,个人数据和隐私有可能被滥用于做其他不可知的分析和研究,带来不可测的风险。


2,大数据时代的“霸权主义”:个人在选择个人数据与隐私保护问题上处于貌似平等、实际却极不平等的位置上。


一般软件都会有用户授权协议,如果用户不同意授权协议可以不使用软件。这种选择机会貌似平等,但是用户往往有使用软件的实际需求,即便对授权协议有所疑虑,也不得不同意授权协议。 何况在信息时代,难道能什么软件都不使用?尤其是掌握了某一领域霸主市场地位的软件,不使用也不行。所以这种授权模式实际相当于对用户“不同意授权协议就不给你使用软件”的威胁,相当不平等。


3,大数据时代的“价值难题”:个人数据的微价值与数据聚合后的极高价值的奇特现象。


虽然每个人单独的数据价值是微不足道的,但是一旦庞大的数据量聚合在一起,在大数据时代,则具备了战略能源一般的极高价值。和这种奇特现象相关联的是虽然具备高度价值的聚合数据是由一个个个体数据组成的,但是因为微不足道的个体数据价值不值得维权,所以个体本身对自身数据价值不具备掌控权,同时每一个个体对聚合数据价值也不具备分享权,这构成了大数据时代的“价值难题”。



(三)安全问题


人工智能技术引发的安全问题是多层面的。


1,非法利用引发的安全问题。


任何新技术都是工具,而工具即可以被用来做好事,也可以被用来做坏事,工具发挥什么效用往往取决于掌握在什么人手里。有人用来建设,就有人用来投机,企图直接攫取别人的劳动果实。一方面,黑客利用所掌握的技术优势进行窃取、篡改、制造病毒、制作和运行非法网站等等破坏性行为。另一方面,成熟的人工智能应用产品也可以被并不具备的高超技术能力的普通人所利用。历史无数次证明,罪犯们往往能够比普通人更加敏锐的捕捉到时代发展的漏洞并加以利用。比如,近几年电话诈骗爆发式的增长,是多个因素包括新技术发展的结果,包括通讯技术的飞速发展,电话费、流量费的下降,可做出多种预先设定的网络电话软件,可修改显示地理位置的技术,以及信用数据的建立,信用数据的盗窃、贩卖等。伴随着人工智能相应技术、软件产品、使用环境的发展和成熟,以及用户数据的建立、流动,必然会伴生出量身定制的骗局。


2,技术漏洞或管理缺陷引发的安全问题。


技术在发展过程当中,不可能一下子完美无缺,实际上需要根据使用环境的变化不断进行完善和修补,漏洞几乎是一直存在的。比个别软件单独存在的软件漏洞相比,现在人工智能的开发越来越呈现出平台化的特征,一旦开发平台本身存在安全漏洞,辐射面和破坏威力将要比以往大的多。2017年末,腾讯安全平台部预研团队发现谷歌人工智能学习系统 TensorFlow 存在自身安全风险,可被黑客利用带来安全威胁。攻击者可以生成 Tensorflow 的恶意模型文件,对人工智能研究者进行攻击,对受害者自身的 AI 应用进行窃取或篡改、破坏。成功的攻击(让人工智能研发或者开发人员使用有漏洞利用代码的 AI 模型)可以完整控制整个人工智能。危害取决于人工智能本身用于什么工作。如果是自动驾驶的 人工智能,就可以导致车毁人亡;如果是人脸验证的人工智能,就可以误导验证逻辑。TensorFlow 框架是谷歌在人工智能领域的重要布局之一,被寄希望于打造为“人工智能时代的安卓”,谷歌、ebay、airbnb、twitter、uber、小米、中兴等多家大型公司均有使用,而安全漏洞这意味着所有这些依赖TensorFlow 框架开发的人工智能产品均会受到影响。


3,黑箱模式引发的安全担忧。


采用深度神经网络方法训练人工智能的过程,在输入层和输出层之间有非常多的隐藏层,每一层由非常多的节点组成,层与层之间、节点与节点之间的数据转换和传递非常复杂,以至于人类并不清楚神经网络具体是怎样运作的。人类只能通过输入的数据和输出的结果判断训练结果是否符合预期,并通过调整参数比对输出结果得出自己想要的结果,但是人工智能的决策过程是一个“黑箱”,人类尚无法掌握。这造成一系列令人担忧的结果。比如,当无人驾驶汽车或机器人失控造成安全事故时,人类无法准确得知是哪里出了错,也无法事先判断它们完整的适用范围以及会在什么情况下失效。比如,人工智能是否在“黑箱”中悄悄进行着人类所不希望发生的进化?


4、超人工智能的安全威胁


人们对人工智能最大的担忧是人工智能超出人类的控制范围,从而对人类整体造成生死存亡的威胁。虽然听起来有些天方夜谭,但是这种担心有其必然的合理性。首先,超人工智能的安全威胁属于低概率但是极高危害后果的风险。其次,虽然迄今尚未能够证明超人工智能具备可实现性,但是人工智能本身的开放性赋予人丰富的想象空间。如果人工智能真的失控,意味着事情本身是不在合理逻辑范围内的,所以人们对人工智能的担忧并不需要合理的逻辑做支撑。人们担心事情在我们不可知的情况下走向失控。最后,这种担心从根源上来自于人类自身的知识局限,对超人工智能的迷惑同样反映了人类对自身的迷惑,对宇宙的迷惑。


5,人工智能武器威胁


人工智能武器带来的威胁目前并没有受到很大的关注,但是随着人工智能的发展,世界必将从“核威胁时代”迈入“人工智能威胁时代”。


阿西莫夫的“机器人三定律”中“第一定律”即为“机器人不得伤害人类,或因不作为使人类受到伤害。”然而,这一定律仅存在于小说中,在现实世界中从未被遵守过。迄今为止的自动化、半自动化武器没有因为指向人类就停止攻击的。


2017年11月13日在日内瓦举办的联合国特定常规武器公约会议上,伯克利大学教授、资深AI研究者Stuart Russell展示了一种类似“机器杀人蜂”的人工智能武器。一个体型类似蜜蜂的小型机器人飞入会场并轻易躲过演讲人抓捕,其拥有anti-sniper技术,完全基于AI。这个小东西蕴含可怕的黑科技:广角摄像头、传感器、面部识别,且在其中部,还有3克炸药。会议还展示了一段视频,一群“机器杀人蜂”飞入建筑物,迅速定位攻击目标并分别击穿人类头颅。


人工智能武器的威胁和核武器威胁相比,核武器获取或制造的条件、成本、渠道和储存、使用的环境要求都非常高,一般组织根本没有能力获得。但是人工智能武器不一样。随着人工智能技术的发展,可以预见,人工智能武器的获取成本越来越低,获取门槛越来越低,存储和使用环境越来越方便,而武器的威力则会越来越大。如果说核武器的作用主要是威慑力的话,人工智能武器则会形成实实在在的威胁。结合人们对于黑客攻击、技术漏洞、管理缺陷、黑箱模式和超人工智能的担忧,人工智能武器是否能够合理使用会成为人们更大的疑虑。

响应司法部和中华全国律师协会的号召,本号提供免费公益法律咨询。进入方式:点击菜单 “公益咨询 - 免费公益法律咨询”。

行业研究报告分享:

30 5G经济社会影响白皮书

关注本公众号,并回复关键字"5g经济"。

31 5G在中国:展望和地区比较

关注本公众号,并回复关键字"5g中国"。

32 联通&华为-面向5G的室内覆盖数字化演进白皮书-2018.6-21页

关注本公众号,并回复关键字"5g室内"。

33 2018新型智慧城市发展与实践研究报告-中国信通院-2018.04-63页

关注本公众号,并回复关键字"城市发展"。

34 智慧家庭标准化白皮书

关注本公众号,并回复关键字"智慧家庭"。


更多重量级研究报告,持续分享中......

曹旭律师原创作品集

本站原创文章,欢迎个人朋友圈转发分享!

刊物、机构或其他公众号如需转载,请联系授权事宜:105491396@qq.com

投稿及商务合作,请加微信sea-cho

如果要加入“人工智能法律研究与交友”微信群,请加微信soupain,备注或发送“加群ai+姓名+职务”。

如果要加入“法律星球”微信群,请加微信sea-cho,备注或发送“加群星球+姓名+职务”。

聚焦互联网与人工智能新时代、新生态法律研究与服务。包括互联网法律、人工智能法律、金融科技法律、区块链法律、AR/VR虚拟(增强)现实法律、物联网法律、车联网法律、智慧城市法律、智能制造法律、大数据法律、云服务法律等相关领域的研究与服务。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存